首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   1篇
  国内免费   2篇
电工技术   1篇
无线电   1篇
自动化技术   4篇
  2020年   1篇
  2019年   1篇
  2018年   1篇
  2017年   2篇
  2016年   1篇
排序方式: 共有6条查询结果,搜索用时 0 毫秒
1
1.
房贻广  刘武  高梦珠  谭守标  张骥 《计算机应用》2016,36(12):3402-3405
快速视网膜特征(FREAK)描述子通过计算模式方向实现了旋转不变性,但对于旋转尺度变化较大的情况匹配性能并不理想,误匹配率较高,为此提出了一种改进的基于FREAK描述子的精确图像配准算法。首先,对原有FREAK算法添加长距离点对,设定距离阈值,只利用关键点采样模式中距离较远的点来生成角度信息。其次,对Hamming距离进行加权。对每一个关键点,在为了生成描述子选择点对时,对训练数据描述子的每一列计算均值,越接近0.5的列权值越大,改进了原来Hamming距离计算粗略的状态,使距离计算更精确。最后,使用最近邻匹配结合最近邻和次近邻的比值以及随机抽样一致(RANSAC)方法进行快速匹配和优化。实验结果表明,改进算法更适用于旋转尺度变化较大的环境及匹配性能要求较高的场合。  相似文献   
2.
《信息技术》2019,(6):31-34
结合超像素和双树复小波变换(DTCWT)给出了一种基于图像的火焰检测算法。该算法使用简单线性迭代聚类(SLIC)方法对图像进行超像素分割,并采用RGB-HSV混合颜色空间对超像素进行处理,分割出疑似火焰区域;然后利用DTCWT对疑似火焰区域图像进行多尺度多方向分解,分别对高低频系数提取HOG特征和圆形度特征;最后通过特征融合,并使用交叉网络搜查法的SVM实现火焰的识别。大量实验结果表明该算法火焰识别的精度较高。  相似文献   
3.
针对输电线路实时巡检中无人机嵌入式移动端的存储和计算受限问题,在Faster R-CNN目标检测框架及VGG特征提取网络基础上,融合深度可分离卷积及SVD分解,构建了一种轻量级的输电线路缺陷检测方法。在公共的PASCAL VOC 2007与COCO数据集上的实验结果验证了所提方法的优越性。在输电线路缺陷数据集上实验,在保证检测精度不下降的同时降低了模型存储空间,提升了模型的检测速度,实现了检测的实时性。  相似文献   
4.
为了消除非线性亮度变化对电力系统中的绝缘子定位和刀闸状态识别的影响,提出了一种基于改进亮度序(LIOP)描述子的刀闸状态识别算法。首先对图像进行必要的预处理以去除噪声的污染;其次提取感兴趣的目标区域,该区域内应包含绝缘子和刀闸等目标信息;然后利用改进的亮度序描述子来精确定位绝缘子,这是由于亮度序描述子对图像非线性亮度变化、尺度变换和旋转变化等具有一定的不变性;最后利用改进的Hough变换来确定刀闸的位置,并计算直线段间的角度来对闸刀状态进行识别。实验结果说明了该方法可以精确地定位绝缘子和识别刀闸的状态,适用于实时性要求较高的电力系统。  相似文献   
5.
针对核相关滤波器跟踪算法在目标尺度变化、快速运动及光照变化情况下跟踪性能降低的问题,提出一种基于前瞻性更新及快速异判技术的核相关滤波器跟踪算法。算法对目标历史状态以逐渐遗忘的方式加以更新,同时引入状态差分来提前应对环境变化,并且利用哈希编码匹配来控制分类器更新:首先对先前正确的目标进行哈希编码,新来一帧分类得到的最终目标同样进行哈希编码来计算相似度;然后依据相似度决定是否更新分类器或者重检测目标。实验结果表明,该算法不仅对尺度变化、快速运动有很强的鲁棒性.对其他属性如光照变化、遮挡等也有较强的鲁棒性。同时跟踪仍然保存很高的速度,平均的处理速度可达100帧/s,能实现快速精准的目标跟踪。  相似文献   
6.
针对人脸识别应用,提出一种基于学习且具有鉴别能力的核图像微分滤波器。首先,区别于现有滤波器的手工设计方法,该滤波器利用训练集动态学习获得,通过在学习过程中融入线性判别分析(LDA)思想,可在增加滤波后图像类内相似度的同时减小类间相似度;其次,在线性滤波分类器的基础上进一步引入二阶微分信息,并结合核方法在高维空间下进行滤波器学习,使得图像中的细节和非线性信息可以得到更好的利用并获得更具鉴别力的特征描述。AR和ORL人脸库上的多组对比实验结果表明,与线性可学习图像滤波器IFL、不考虑微分信息的核图像滤波器以及只考虑一阶微分信息的核图像滤波器进行比较,所提算法可有效提高识别性能。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号